Tecnologia Científica

Estudo revela: orientação humana multiplica por 10 a capacidade de inteligência artificial em resolver problemas complexos
Pesquisa publicada na revista Nature Communications mostra que modelos de linguagem dependem de analogias guiadas para ativar conhecimentos ocultos — e falham completamente quando estruturas internas são alteradas
Por Laercio Damasceno - 03/04/2026


Imagem: Reprodução


Um estudo científico publicado nesta sexta-feira (3), na revista Nature Communications, traz novas evidências de que sistemas de inteligência artificial, apesar de seu enorme poder computacional, ainda dependem profundamente da orientação humana para resolver problemas complexos. A pesquisa, conduzida por R. Larraz e Avelino Corma, demonstra que a chamada “orientação analógica” pode aumentar em até dez vezes o desempenho de modelos de linguagem de grande escala (LLMs), ao ativar conexões de conhecimento que permanecem latentes.

O trabalho, aceito em março de 2026, utilizou uma abordagem inovadora: recriar, em ambiente controlado, um problema histórico da engenharia — o desenvolvimento do processo de Fluid Catalytic Cracking (FCC), fundamental para a indústria do petróleo. Ao restringir o acesso da inteligência artificial a informações disponíveis apenas até 1936, os pesquisadores puderam avaliar se o sistema seria capaz de “descobrir” a solução por conta própria.

Os resultados foram contundentes. Em condições autônomas, o modelo acertou apenas 10% das tentativas. Com orientação humana estruturada — especialmente por meio de analogias entre diferentes áreas do conhecimento — o índice de sucesso saltou para 100%.

“Não se trata de ensinar algo novo ao modelo, mas de ajudá-lo a usar o que já sabe”, afirmam Larraz e Corma no artigo. “A orientação humana redireciona a atenção da IA para conhecimentos que já estão disponíveis, mas que não são utilizados espontaneamente.”


Analogias como ponte entre conhecimentos

O ponto central da pesquisa está no papel das analogias. Ao sugerir ao modelo que comparasse o problema da engenharia do petróleo com sistemas de transporte de grãos — como silos agrícolas — os cientistas conseguiram induzir a máquina a aplicar princípios físicos semelhantes, como a suspensão de partículas em fluxo de ar.

Sem essa pista, a IA permanecia presa ao domínio original do problema, propondo soluções conservadoras baseadas apenas em engenharia petrolífera. Com a analogia, passou a integrar conhecimentos de áreas distintas, como física de partículas e engenharia de processos.

Os dados mostram que conceitos como a Lei de Stokes e mecanismos de transferência de calor convectiva, ausentes em 100% das respostas autônomas, passaram a aparecer em até 90% das respostas guiadas.

Para os autores, isso revela um limite estrutural dos sistemas atuais. “Os modelos não são naturalmente exploratórios entre domínios. Eles precisam de um ‘empurrão’ cognitivo para conectar ideias distantes”, escrevem.

Fragilidade interna da inteligência artificial

Outro achado relevante diz respeito à arquitetura interna dos modelos. Ao manipular matematicamente uma camada específica do sistema — responsável pelo processamento semântico — os pesquisadores observaram um colapso completo da capacidade de raciocínio.

Quando essa camada foi “desativada”, o desempenho caiu de até 80% de acerto para 0%, independentemente do tipo de orientação oferecida. Em alguns casos, as respostas deixaram de ser coerentes, transformando-se em fragmentos sem sentido.

O fenômeno evidencia o que os autores chamam de “fragilidade arquitetural”. Pequenas intervenções podem comprometer drasticamente a capacidade de raciocínio, indicando que o conhecimento nos modelos está distribuído de forma interdependente e sensível.

“Não é possível remover um conceito isolado sem afetar o restante do sistema”, destacam os pesquisadores.

Implicações para o futuro da IA

O estudo tem implicações diretas para o uso de inteligência artificial em áreas estratégicas, como descoberta de medicamentos, engenharia de materiais e inovação tecnológica. A principal conclusão é que, ao contrário da ideia de autonomia plena, os sistemas atuais funcionam melhor em regime de colaboração com humanos.

Para especialistas, os resultados reforçam uma mudança de paradigma. “A inteligência artificial não substitui o pensamento humano — ela o amplia quando bem orientada”, avalia, em nota, o Instituto de Tecnologia Química (ITQ), na Espanha, onde parte da pesquisa foi desenvolvida.

Além disso, o trabalho propõe uma metodologia inédita para investigar o funcionamento interno desses sistemas, combinando análise histórica, engenharia de representações e técnicas de recuperação de informação.

Contexto histórico e científico

O uso do FCC como modelo experimental não foi casual. Desenvolvido comercialmente em 1942, o processo revolucionou a produção de combustíveis ao permitir operações contínuas e maior eficiência térmica. Sua criação exigiu justamente a integração de conhecimentos de diferentes áreas — o mesmo desafio imposto à inteligência artificial no experimento.

Ao recriar esse contexto histórico, os pesquisadores conseguiram eliminar um problema comum em estudos com IA: a contaminação por conhecimento prévio. Segundo o artigo, nenhum dos 250 testes apresentou uso de termos posteriores à época analisada, validando o rigor metodológico.

Com a rápida expansão da inteligência artificial em setores como educação, saúde e indústria, entender seus limites tornou-se uma questão central. O estudo sugere que a eficácia dessas ferramentas depende não apenas de dados e poder computacional, mas também da qualidade da interação humana.

Na prática, isso significa que profissionais precisarão desenvolver novas habilidades: saber orientar, contextualizar e formular analogias eficazes para extrair o melhor desempenho das máquinas.

Ao mesmo tempo, a descoberta da fragilidade interna dos modelos levanta preocupações sobre segurança e confiabilidade, especialmente em aplicações críticas.

Uma inteligência guiada

A principal mensagem do estudo é clara: a inteligência artificial, por mais avançada que seja, ainda não é autossuficiente. Seu potencial máximo emerge quando combinada à intuição e à capacidade de abstração humanas.

“Os sistemas não descobrem sozinhos — eles precisam ser guiados para enxergar além do óbvio”, concluem Larraz e Corma.

Em um cenário de crescente dependência tecnológica, a pesquisa reforça uma ideia fundamental: o futuro da inovação não será construído apenas por máquinas, mas pela colaboração entre humanos e algoritmos.


Referência
Larraz, R., Corma, A. A orientação analógica humana amplifica o desempenho do LLM por meio da ativação do conhecimento interdomínio. Nat Commun (2026). https://doi.org/10.1038/s41467-026-70873-7

 

.
.

Leia mais a seguir